• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 코딩"에 대한 통합 검색 내용이 327개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
알테어, 국내 제조 기업의 AI 기술 도입 위한 'AI 워크숍' 개최
알테어가 지난 4월 4일 서울 역삼동 포스코타워에서 ‘AI(인공지능) 워크숍’을 진행했다고 밝혔다. ‘AI for Engineers(엔지니어를 위한 AI)’를 주제를 내건 이번 워크숍은 AI 기술 도입 전략 및 산업 동향을 공유하는 자리로 마련됐다. 현장에는 주요 제조업체 실무진 및 오피니언 리더 300여 명이 참석했다. 알테어의 문성수 아시아태평양 수석부사장은 환영사에서 “제조업체가 AI 기술을 도입할 때에는 그들의 도메인 전문성을 바탕으로 AI 기술을 누구나 활용할 수 있는 환경을 마련해야 한다”면서, “알테어는 데이터 비전공자도 쉽게 활용할 수 있는 로코드/노코드 기반 데이터 분석 및 AI 시뮬레이션 소프트웨어를 제공하여 국내 업체들의 고민을 해소하고자 한다”고 전했다. 첫 번째 발표자로 나선 알테어의 수디르 파다키 글로벌 데이터 분석 디렉터는 “최근 제조업계는 전통적인 시뮬레이션 데이터 활용에서 데이터 기반의 AI 활용으로 전환하는 추세이다. 이를 위해 알테어는 자사 데이터 분석 소프트웨어 래피드마이너에 ‘CAE 커넥터’를 추가해, CAE 결과 파일을 바로 읽어들여 코딩 없이 다양한 변수에 따른 해석 결과를 얻을 수 있도록 했다”고 소개했다. 이어 “요즘 기업에서 생성형 AI 시스템 구축에 많은 관심을 보이고 있는데, 래피드마이너에 내장된 생성형 AI 기능을 활용하면 채팅창에서 데이터 분석 요구사항을 쉽게 요청할 수 있다. 한국어 자연어 처리도 지원해 한국 사용자에게도 편리할 것”이라고 말했다. 한국알테어의 이승훈 기술 총괄 본부장은 “해석 결과를 얻는 과정은 제품 개발 단계에서 상당한 시간을 차지한다. 하지만 AI 기술을 적용해 해석 결과를 학습하고 적용하니 3시간 이상 걸리던 작업도 단 3초 만에 해석 결과를 얻을 수 있게 되었다. AI 기술 도입은 제품 개발 단계를 대폭 단축시키며, 빠른 예측 결과를 통해 효율성을 극대화할 수 있다.”고 말했다.     알테어의 이번 워크숍에서는 산학연 영역의 여러 연사가 다양한 전문 분야와 관련된 AI 트렌드를 다뤘다. 황보현우 하나은행 자문위원이 ‘AI 시대의 경쟁 우위 전략’, 현대자동차 한용하 연구위원이 ‘자동차 CAE 부문에서의 AI 적용 사례 소개’, 계명대학교 김양석 교수는 ‘AI 시대의 셀프서비스 분석’을 주제로 최신 연구 결과와 산업 동향을 소개했다. 또한 ‘엔지니어링 분야에서의 AI 적용: 엔지니어들의 기회와 도전’ 를 주제로 진행한 패널 토론에는 LG전자,  현대자동차, 계명대학교에서 참가해 AI 기술 적용에 대한 의견과 경험을 공유하는 시간을 가졌다. 알테어의 라비 쿤주 최고제품및전략책임자(CPSO)는 “다양한 전문성을 갖추지 않고는 AI 기술을 효과적으로 도입하고 활용하는 것이 어렵다”며, “알테어는 시뮬레이션과 AI, HPC 기술과 자원을 통합한 ‘알테어원’ 플랫폼을 통해 기업들의 AI 기술 도입 부담을 줄이고 현실적으로 구현할 수 있도록 지원하겠다”고 전했다.
작성일 : 2024-04-05
[포커스] 생성형 AI와 협업 툴의 만남, ‘플로우 3.0’ AI Now 
국내 협업 툴 ‘플로우’를 공급해 온 마드라스체크가 3월 7일 여의도 콘래드서울호텔에서 ‘flow 3.0 AI NOW’ 행사를 개최했다. 이번 행사에서는 플로우에 업데이트될 생성형 AI에 대한 소개 및 활용법, 실제 활용 사례 등이 공유되었다. 마드라스체크는 플로우 3.0에 생성형 AI가 더해져 업무 프로세스의 혁신을 가져올 수 있을 것으로 기대했다. ■ 최경화 국장     협업 툴 플로우 서비스 기업, 마드라스체크 마드라스체크는 ‘똑똑한 AI 업무비서’를 내세우는 플로우 3.0을 발표했다. 플로우는 기업 내 업무 협업을 돕는 플랫폼으로서 서비스형 소프트웨어(SaaS)와 온프레미스 형태로 제공된다.  마드라스체크는 K-협업 소프트웨어의 위상을 전 세계적으로 알리고자 글로벌 시장에 진출하여 플로우 사용을 확대, 전 세계 55개국 300개 유료 기업을 확보하며 업무 문화 혁신을 주도하고 있다.  이학준 대표는 “플로우는 메신저 기반 협업 툴과 작업 관리 협업 툴을 하나로 엮어 시장의 호응을 얻었다. 2018년에는 SaaS와 온프레미스를 동시에 제공했고, 이번에 생성형 AI로 또 한단계 도약할 것”이라고 밝혔다. 또한 플로우는 생성형 AI를 통해 누구나 쉽게 업무를 진행할 수 있도록 도울 것이다. 사용자는 동료들과 프로젝트 생성부터 업무 요약, 담당자 추천 등을 일일이 할 필요가 없으며, 플로우의 AI가 관련 업무를 대신할 수 있다고 소개했다.    ▲ 마드라스체크 이학준 대표   플로우는 CEO부터 신입까지 사용하기 쉬운 협업 툴로서 프로젝트 관리, 업무/일정관리, 메신저, OKR, 전자결재, 근태관리까지 한번에 가능하며, 업무에 최적화되어 줌/팀즈/구글 등이 연동되는 AI 협업 툴이다. 생성형 AI를 탑재한 플로우에는 오픈AI의 ‘GPT-4’와 메타의 ‘라마2’ 언어모델이 탑재되어 있다. 생성형 AI를 통한 플로우의 주요 기능은 ▲AI 프로젝트 템플릿 ▲AI 하위 업무 ▲AI 업무 필터 ▲AI 업무 일지 ▲AI 에디터 템플릿 ▲AI 담당자 추천 등이 있다.     이 대표는 “협업 툴 서비스는 시간이 갈수록 복잡해지고, 기업은 데이터가 쌓인다. 플로우는 AI를 활용해 UI/UX를 혁신하고, 데이터를 가치 있게 가공하고 제공하며, 시간을 절약하도록 서비스를 만든다. 대화하듯 업무하고 알아서 자료를 찾는 혁명을 이룰 것”이라고 말했다.      또한 이날 행사에서는 카이스트 전기 및 전자공학과 김대식 교수가 ‘AI와 챗GPT가 이끄는 세상’을 주제로 기조 발표를 했다. 김 교수는 “AI 개념은 수십 년 전에 나왔지만 컴퓨터 공학 단계에 머물렀다. 하지만 챗GPT로 코드 기반인 AI가 자연어 입력으로 바뀌면서 혁신의 시점이 왔다”라고 말했다.  김대식 교수가 말하는 올해 생성형 AI의 키워드는 ▲ 지적 능력의 한계를 넘어서는 생산성 ▲ 폼팩터의 전환 ▲온디바이스 AI를 위시한 sLLM의 등장이다. 핵심은 생산성의 향상이다. 김 교수는 휴대폰과 디스플레이 산업이 성장이 멈추고 있다면서, 포스트 스마트폰 디바이스는 디스플레이가 없는 쪽으로 변해가고 있다고 말했다. 또한 “제조 생산성은 높아지고 있지만 21세기에 들어서도 업무, 코딩, 디자인 등 인간의 지적능력이 필요하다”면서, 앞으로의 인공지능은 지적 노동자의 대량 생산을 돕는 방향으로 발전할 것으로 전망했다.    ▲ 카이스트 전기 및 전자공학과 김대식 교수   한편, 이어진 세션에서는 플로우 AI 사전 테스트를 진행하고, 생산성을 높인 사용 후기가 발표되었다. BGF리테일에서는 ‘글로벌 AI 편의점 CU, AI로 업무의 날개를 다는 법’, 한국전통문화고등학교에는 ‘교실로 들어온 생성형 AI’라는 제목으로 적용 사례를 소개해 호응을 얻었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
2023 생성형 AI 주요 이슈와 의미
정보통신정책연구원은 2023 생성형 AI 주요 이슈와 의미를 발표하였다. - ChatGPT 출시 이후, 생성형 AI의 주요 이슈와 그 의미는 다음과 같음 1. ChatGPT 출시(´22.11.30)와 생성형 AI의 부상 · 코딩, 요약, 콘텐츠 생성 등 강력한 텍스트 생성 성능을 보이며 유례없는 이용자 수를 기록, 생성형 AI의 대중화 가능성을 보여줌 2. LLaMA 출시(´23.02.24)와 LLaMA Moment, 오픈 소스로 촉발된 모델 경량화와 시장변화 · Meta의 대형언어모델인 LLaMA의 소스가 대중적으로 오픈되면서 대형언어모델 시장의 진입장벽이 낮아지며 시장에 영향을 미침 3. GPT-4 출시(´23.03.14), 멀티모달(multi-modal) 시대에 대한 기대 · 텍스트 생성을 넘어 이미지 입력·처리·추론이 가능한 대형언어 모델이 출시되면서 멀티 모달 AI의 활용이 점차 가시화되고 있음 4. 구글의 생성형 AI 접목(´23.03.14) 및 MS의 Copilot 출시(´23.03.16), AI를 통한 효율성과 생산성 증대 기대 · 주요 빅테크 기업들이 생성형 AI를 자사 업무 생산성 도구에 접목하면서, AI 기술을 통한 서비스 고도화 및 경쟁을 펼치고 있으며 이는 향후 업무 방식과 경쟁력에 영향을 미칠 것으로 전망 5. ChatGPT-Plugin 출시(´23.03.23), 챗봇에서 플랫폼으로의 진화 · ChatGPT-Plugin를 통한 외부 서비스와 연결로, 최신 정보 접근과 다양한 서비스와 기능을 ChatGPT 내에서 수행할 수 있게 되면서 ChatGPT 중심의 서비스 통합 가능성을 보여주게 됨 6. 자율 AI 에이전트(Autonomous Agent)의 등장과 인공 일반지능(Artificial General Intelligence, AGI)으로의 기대 · 자율적으로 목표를 달성하는 자율 AI 에이전트 프로그램들이 등장하고 주목받으며, 미래로만 여겨지던 인공 일반지능(AGI)의 시대의 도래를 시사함   발행일 : 2023.09.14  
작성일 : 2024-03-19
스노우플레이크, 미스트랄 AI와 협력해 5개 국어의 LLM 모델 지원
데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄 AI(Mistral AI)와 파트너십을 맺고, 플래그십 대규모 언어 모델(LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에 적용한다고 밝혔다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능한데, 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(MMLU)’을 비교하는 과정에서 성능을 입증했다. 이와 함께, 미스트랄 AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈소스 모델 ‘믹스트랄(Mixtral) 8x7B’에 대한 엑세스 제공 및 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 미스트랄 AI에 대한 시리즈 A 투자 등도 이번 파트너십 발표에 포함됐다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이고, ‘믹스트랄 8x7B’는 여러 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄 AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.     스노우플레이크는 2023년 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄 AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되면서, 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄 AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크는 미스트랄 AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”면서, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. 미스트랄 AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “미스트랄 AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”면서, “스노우플레이크 데이터 클라우드에서 미스트랄 AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 전했다.
작성일 : 2024-03-11
생성형 AI 데이터 학습에 사용되는 딥러닝 강화학습의 개념과 구조
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI 모델 학습과 같이 현재도 다양한 곳에서 필수로 사용되는 강화학습 딥러닝 기술의 기본 개념, 이론적 배경, 내부 작동 메커니즘을 확인한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   강화학습은 바둑, 로봇 제어와 같은 제한된 환경에서 최대 효과를 얻는 응용분야에 많이 사용된다. 강화학습 코딩 전에 사전에 강화학습의 개념을 미리 이해하고 있어야 제대로 된 개발이 가능하다. 강화학습에 대해 설명한 인터넷의 많은 글은 핵심 개념에 대해 다루기보다는 실행 코드만 나열한 경우가 많아, 실행 메커니즘을 이해하기 어렵다. 메커니즘을 이해할 수 없으면 응용 기술을 개발하기 어렵다. 그래서 이번 호에서는 강화학습 메커니즘과 개념 발전의 역사를 먼저 살펴보고자 한다. 강화학습 개발 시 오픈AI(OpenAI)가 개발한 Gym(www.gymlibrary.dev/index.html)을 사용해 기본적인 강화학습 실행 방법을 확인한다. 참고로, 깃허브 등에 공유된 강화학습 예시는 대부분 게임이나 로보틱스 분야에 치중되어 있는 것을 확인할 수 있다. 여기서는 CartPole 예제로 기본적인 라이브러리 사용법을 확인하고, 게임 이외에 주식 트레이딩, 가상화폐, ESG 탄소 트레이딩, 에너지 활용 설비 운영과 같은 실용적인 문제를 풀기 위한 방법을 알아본다.   그림 1. 강화학습의 개념(출처 : Google)   강화학습의 동작 메커니즘 강화학습을 개발하기 전에 동작 메커니즘을 간략히 정리하고 지나가자.   강화학습 에이전트, 환경, 정책, 보상 강화학습의 목적은 주어진 환경(environment) 내에서 에이전트(agent)가 액션(action)을 취할 때, 보상 정책(policy)에 따라 관련된 변수 상태 s와 보상이 수정된다. 이를 반복하여 총 보상 r을 최대화하는 방식으로 모델을 학습한다. 정책은 보상 방식을 알고리즘화한 것이다. <그림 2>는 이를 보여준다. 이는 우리가 게임을 하며 학습하는 것과 매우 유사한 방식이다.   그림 2. 강화학습 에이전트, 환경, 액션, 보상 개념(출처 : towardsdatascience)   강화학습 설계자는 처음부터 시간에 따른 보상 개념을 고려했다. 모든 시간 경과에 따른 보상치를 동시에 계산하는 것은 무리가 있으므로, 이를 해결하기 위해 DQN(Deep Q-Network)과 같은 알고리즘이 개발되었다. 모든 강화학습 라이브러리는 이런 개념을 일반화한 클래스, 함수를 제공한다. 다음은 강화학습 라이브러리를 사용한 일반적인 개발 코드 패턴을 보여준다.   train_data, test_data = load_dataset()  # 학습, 테스트용 데이터셋 로딩 class custom_env(gym):  # 환경 정책 클래스 정의    def __init__(self, data):       # 환경 변수 초기화    def reset():       # 학습 초기 상태로 리셋    def step(action):       # 학습에 필요한 관찰 데이터 변수 획득       # 액션을 취하면, 그때 관찰 데이터, 보상값을 리턴함 env = custom_env(train_data)  # 학습환경 생성. 관찰 데이터에 따른 보상을 계산함 model = AgentModel(env)      # 에이전트 학습 모델 정의. 보상을 극대화하도록 설계 model.learn()                       # 보상이 극대화되도록 학습 model.save('trained_model')    # 학습된 파일 저장 # 학습된 강화학습 모델 기반 시뮬레이션 및 성능 비교 env = custom_env(test_data)  # 테스트환경 생성 observed_state = env.reset() while not done:    action = model.predict(observed_state) # 테스트 관찰 데이터에 따른 극대화된 보상 액션    observed_state, reward, done, info = env.step(action)    # al1_reward = env.step(al1_action) # 다른 알고리즘에 의한 액션 보상값과 성능비교    # human_reward = env.step(human_action) # 인간의 액션 보상값과 성능비교   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-03-05
엔비디아, 차세대 AI 디자인과 시각화를 위한 RTX 2000 에이다 제너레이션 GPU 출시
엔비디아가 차세대 AI 가속화 시대를 위한 엔비디아 RTX 2000 에이다 제너레이션 GPU(NVIDIA RTX 2000 Ada Generation GPU)를 출시했다고 밝혔다. 현재 산업 전반에 걸쳐 변화를 주도하고 있는 생성형 AI의 이점을 활용하기 위해 기업들은 워크플로를 작동시킬 수 있는 적절한 하드웨어를 선택해야 한다. 엔비디아 RTX 2000 에이다 제너레이션은 최신 AI, 그래픽, 컴퓨팅 기술을 컴팩트 워크스테이션에 적용해 전문가용 워크플로에서 이전 세대 RTX A2000 12GB 대비 최대 1.5배의 성능을 제공한다. 새로운 GPU는 정교한 3D 환경 제작부터 복잡한 설계 검토의 간소화, 산업 디자인에 이르기까지 다양한 기능을 처리할 수 있다. 향상된 기능은 전문가들이 성능의 저하 없이 더 많은 것을 실현할 수 있도록 지원하며 AI로 가속화된 미래를 위한 기반을 제공한다. AI 기반 도구, 멀티 디스플레이 설정, 고해상도 콘텐츠 등과 같은 최신 멀티 애플리케이션 워크플로에는 GPU 메모리에 대한 요구가 상당히 높다. 전문가들은 RTX 2000 에이다 제너레이션의 16GB 메모리를 통해 최신 기술과 도구를 활용해 데이터를 더욱 빠르고 효과적으로 작업할 수 있다. 엔비디아 RTX 기술로 구동되는 새로운 GPU는 엔비디아 DLSS를 통해 그래픽에 높은 사실감을 부여한다. 이를 통해, 이전보다 3배 이상 빠른 초고화질의 실사에 가까운 레이 트레이싱 이미지를 제공할 수 있다. 또한, RTX 2000 에이다 제너레이션은 제품 디자인과 엔지니어링 설계 검토와 같은 엔터프라이즈 가상 현실 워크플로에 몰입감 높은 경험을 제공한다.     성능과 활용성에 AI 기능까지 결합된 RTX 2000 에이다 제너레이션은 다양한 산업 분야의 전문가들이 효율성을 달성할 수 있도록 지원한다. 건축가와 도시 설계사는 시각화 워크플로와 구조 분석을 가속화해 설계 정밀도를 높일 수 있다. 산업용 PC를 사용하는 제품 디자이너와 엔지니어는 빠르고 사실적인 렌더링과 AI 기반 생성 디자인을 통해 제품 디자인의 반복 작업을 수행할 수 있다. 콘텐츠 크리에이터는 고해상도 동영상과 이미지를 원활하게 편집하고, AI를 활용한 사실적인 시각 효과를 연출해 콘텐츠 제작에 도움을 받을 수 있다. 아울러 중요한 임베디드 애플리케이션과 에지 컴퓨팅에서 RTX 2000 에이다 제너레이션은 의료 기기의 실시간 데이터 처리를 지원한다. 또한, 예측 유지보수를 통해 제조 공정을 최적화하거나 유통  환경에서 AI 기반 인텔리전스를 구현할 수 있다. 엔비디아 RTX 2000 에이다 제너레이션은 엔비디아 에이다 러브레이스(Lovelace) GPU 아키텍처의 최신 기술을 탑재하고 있다. 여기에는 ▲최대 1.7배 빠른 레이 트레이싱 성능으로 충실하고 사실적인 렌더링이 가능한 3세대 RT 코어 ▲이전 세대 대비 최대 1.8배의 AI 처리량, 구조화된 희소성, FP8 정밀도로 AI 가속 도구와 애플리케이션에 더 높은 추론 성능을 제공하는 4세대 텐서 코어 ▲이전 세대 대비 최대 1.5배의 FP32 처리량으로 그래픽과 컴퓨팅 워크로드의 성능이 향상된  쿠다(CUDA) 코어 ▲이전 세대와 동일한 70W의 전력으로 전문가용 그래픽, 렌더링, AI, 컴퓨팅 워크로드 전반에서 최대 2배의 성능 향상 ▲이전 세대 대비 가상 현실 워크플로 성능 최대 3배 향상 ▲더 큰 규모의 프로젝트를 처리할 수 있는 16GB의 GPU 메모리 및 오류 수정 코드 메모리 ▲AI 기반 그래픽을 개선하고 고품질 프레임을 추가로 생성해 성능을 높이는 DLSS 3 ▲AV1을 지원하며 H.264보다 효율을 40% 높인 8세대 엔비디아 인코더(NVENC) 등이 있다. 한편, 엔비디아는 RTX 엔터프라이즈 드라이버의 최신 업데이트에 그래픽 워크플로를 개선하는 다양한 기능과 함께 RTX 2000 에이다 지원을 포함한다고 밝혔다. 여기에는 ▲AI 기반의 표준 다이나믹 레인지(SDR)에서 하이 다이나믹 레인지(HDR)로 톤 매핑을 지원하는 비디오 트루HDR(Video TrueHDR) ▲엔비디아 GPU에서 최신 대규모 언어 모델(LLM)에 대한 추론 성능을 최적화하고 가속화하는 오픈소스 라이브러리인 텐서RT-LLM(TensorRT-LLM) ▲비트 심도 확장 기술과 새로운 저지연 B프레임을 통한 비디오 품질 개선과 비디오 코덱의 코딩 효율 향상 ▲더 빠른 작업 완료를 위해 실행 간접 확장 엔비디아 API를 사용해 CPU에서 GPU로 작업을 오프로드하는 기능 ▲데스크톱의 엔비디아 제어판(NV Control Panel)에서 GPU 일련 번호를 표시하는 기능 등이 있다. RTX 2000 에이다 제너레이션의 성능을 앞서 활용하고 있는 기업으로는 솔리드웍스(SOLIDWORKS) 애플리케이션을 보유한 다쏘시스템, 롭 월커스 디자인 앤 엔지니어링(Rob Wolkers Design and Engineering), WSP 등이 있다. 다쏘시스템이 2월 11일~14일 미국 댈러스에서 진행한 ‘3D익스피리언스 월드’에서는 엔비디아 RTX 2000 에이다로 구동되는 다쏘시스템 솔리드웍스 애플리케이션의 실시간 데모가 진행되기도 했다. 다쏘시스템 솔리드웍스 그래픽 애플리케이션 연구개발 책임자인 올리비에 제그던(Olivier Zegdoun)은 “고효율 차세대 아키텍처, 저전력 소비, 대용량 프레임 버퍼를 갖춘 새로운 엔비디아 RTX 2000 에이다는 솔리드웍스 사용자에게 큰 도움이 될 것이다. 이 제품은 디자이너와 엔지니어가 더 큰 데이터세트에서도 완전한 모델 충실도로 혁신적인 제품 경험을 빠르게 개발할 수 있도록 뛰어난 성능을 제공한다”고 말했다.  엔비디아 RTX 2000 에이다는 현재 애로우 일렉트로닉스(Arrow Electronics), 잉그램 마이크로(Ingram Micro), 리드텍(Leadtek), PNY, 료요 엘렉트로(Ryoyo Electro), TD시넥스(TD SYNNEX) 등 글로벌 유통 파트너를 통해 구매할 수 있다. 오는 4월부터는 델 테크놀로지스, HP, 레노버 등에서도 구매 가능하다.
작성일 : 2024-02-14
딥러닝 수치해석 데이터의 병렬처리를 지원하는 파이썬 넘바 라이브러리
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 GPU CUDA(쿠다) 병렬처리를 지원하는 넘바(Numba) 라이브러리를 간략히 소개한다. CUDA는 현재 딥러닝 기술의 기반처럼 사용되며, 사실상 산업 표준이다. 딥러닝은 모든 연산이 텐서 행렬 계산이므로, 엔비디아 GPU에 내장된 수많은 계산 유닛(실수 계산에 특화된 CPU)들을 사용한다. CUDA의 강력한 수치해석 데이터 병렬처리 기능은 딥러닝뿐 아니라 디지털 트윈의 핵심인 시뮬레이션, 모델 해석 등에 필수적인 수치계산 엔진으로 사용된다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   CUDA는 내장된 수많은 계산 유닛에 입력 데이터를 할당하고, 행렬연산을 하여 출력된 데이터를 CPU 메모리가 접근할 수 있도록 데이터 고속 전송/교환하는 역할을 한다. 그러므로, 딥러닝 모델 학습 성능은 GPU CUDA 성능에 직접적 영향을 받는다. 이벙 호에서는 파이썬(Python)에서 CUDA를 이용해 수치해석 등 계산 성능을 극대화할 수 있는 방법과 간단한 예제를 살펴본다.   그림 1. CUDA 아키텍처(출처 : Multi-Process Service : GPU Deployment and Management Documentation)   GPU CUDA 소개 CUDA는 게임 화면에 렌더링되는 3차원 이미지를 2차원 픽셀에 매핑하기 위한 수많은 행렬을 실시간 처리할 수 있도록 개발되어 왔다. 이런 이유로, 행렬 고속 연산이 필요한 딥러닝 학습에 적극 사용된 것이다.   그림 2. CUDA 기반 실시간 텐서 행렬 연산 결과   CUDA는 오랫동안 개발자의 요구사항을 반영해 발전되어, 개발 플랫폼으로서 탄탄한 생태계를 구축했다.   그림 3. 엔비디아 개발자 사이트   그림 4. CUDA 기반 레이트레이싱 렌더링 결과(출처 : Ray Tracey's blog : GPU path tracing tutorial 3 : GPU)   사실, 많은 스타트업이 이런 기능을 지원하는 딥러닝용 AI 칩을 FPGA 기법 등을 이용해 개발, 홍보하고 있으나, 이런 개발자 지원도구와 플랫폼 생태계 없다면 산업계에서는 의미가 없다고 볼 수 있다.   넘바 소개 넘바는 파이썬 기반 CUDA GPU 프로그래밍을 지원한다. 넘바는 컴파일 기술을 지원하여 CPU와 GPU 모드에서 코딩되는 데이터 구조, 함수 호출을 추상화한다. 넘바는 엔비디아의 CUDA 함수와 설정을 래핑한 고수준의 함수 API를 제공한다. 이를 통해 개발자가 CUDA의 세부 설정에 신경쓸 필요 없이, 데이터 병렬 처리 개발에만 집중할 수 있다.   개발 환경 넘바의 개발 환경은 다음과 같다. NVIDIA Compute Capability 5.0 이상 CUDA 지원 GPU 장착 PC(2023년 12월 시점) NVIDIA CUDA 11.2 이상 NVIDIA TX1, TX2, 자비에, 젯슨 나노 GTX 9, 10, 16 시리즈. RTX 20, 30, 40 시리즈. H100 시리즈 CONDA 환경의 경우, 다음과 같이 터미널을 이용해 CUDA 툴킷을 자동 설치할 수 있다. conda install cudatoolkit 넘바는 cuda python을 이용해 엔비디아 GPU CUDA와 바인딩한다. conda install nvidia::cuda-python 설치 방법은 다음과 같다. conda install numba   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-02-02
씨이랩, AI 기반 영상 요약 서비스를 GPT 스토어에 등록
인공지능(AI) 영상 분석 전문 기업 씨이랩이 자사의 플래그십 서비스인 ‘비디고(VidiGo)’를 오픈AI(OpenAI)의 GPT 스토어(GPTs)에 공식 등록했다고 발표했다. 이를 통해 챗GPT(ChatGPT) 사용자는 비디고의 고급 영상 분석 기능을 챗GPT 내에서 쉽게 이용할 수 있게 됐다. 비디고는 사용자가 유튜브와 같은 동영상 콘텐츠를 더 효율적으로 소비할 수 있도록 돕는 AI 기반 요약 기술을 제공한다. 이 서비스는 영상의 핵심 내용을 간결하게 요약해 사용자가 동영상 시청 시간을 절약할 수 있도록 돕는다. 또 사용자는 ‘PDF로 내보내기’ 또는 ‘링크 공유’ 기능을 통해 요약된 내용을 다른 사람들과 공유할 수 있다.     GPT 스토어는 외부인이 참여하는 챗봇 플랫폼으로, 별도의 코딩 없이 챗GPT 대화창을 통해 챗봇을 생성하고 이를 다른 사용자들과 공유할 수 있다. 이번 GPT 스토어 입점을 통해 비디고는 이제 챗GPT 사용자들에게도 제공되며, 검색창에서 ‘VidiGo’를 검색해 간편하게 접근할 수 있다. 씨이랩은 이미 카카오톡 채널의 챗봇을 통해 비디고 서비스를 제공하고 있으며, 이번 GPT 스토어 등록으로 서비스 범위를 확장하게 됐다. 씨이랩은 비디고의 GPT 스토어 공식 입점이 글로벌 AI 시장에서 자사의 입지를 더 확고히 하는 계기가 될 것으로 기대하고 있다. 한편, 씨이랩은 올해 1월 엔비디아와의 파트너십을 통해 AI 프로페셔널 서비스(AI Professional Service) 조직을 구성하고, 오픈AI의 챗GPT와 더불어 엔비디아 LLM NeMo에 대한 서비스도 함께 제공하겠다고 밝혔다. 씨이랩의 최원준 비디고팀 리더는 “비디고를 활용해 전 세계 사용자들이 더 쉽게 영상 분석 서비스를 경험하며, 새로운 영상 공유의 시대가 열리기를 기대한다”면서 “GPT 스토어뿐만 아니라 씨이랩이 보유한 파트너십을 바탕으로 글로벌 파트너 생태계에서 기술적 융합을 추구함으로써 고객에게 더 향상된 서비스를 제공하는데 주력할 것”이라고 전했다.
작성일 : 2024-02-01
앤시스, AI로 시뮬레이션 가속화하는 ‘앤시스 심AI’ 출시
앤시스코리아가 시뮬레이션 설계 가속화를 지원하는 AI 기술인 ‘앤시스 심AI(SimAI)’을 출시했다. 앤시스 심AI는 생성형 AI(generative AI)의 연산 속도와 앤시스 시뮬레이션 솔루션의 예측 정확도가 결합된 물리적 환경에 구애받지 않는(physics-agnostic) 서비스형 소프트웨어(SaaS)다. 앤시스는 “앤시스 심AI는 개방형 생태계를 지원하고 모델 성능 예측에 소요되는 시간을 몇 분 수준으로 단축하는 것은 물론, 직관적인 인터페이스와 프로세스로 시뮬레이션 대중화에 기여할 것”이라고 기대하고 있다. 앤시스는 앤시스 심AI 출시를 통해 보다 정확하고 빠른 엔지니어링 시뮬레이션 소프트웨어에 대한 기업들의 증가하는 수요를 충족시킨다는 계획이다. 앤시스 심AI는 진보된 생성형 AI를 설계 프로세스와 시뮬레이션에 적용함으로써 사용자들이 기존 프로세스를 재정립하고 더 많은 가치를 창출할 수 있도록 돕는다. 초고속으로 작동하는 앤시스 심AI는 연구개발(R&D)을 가속화하고 제품 개발 주기를 단축하는 것은 물론, 광범위한 설계 탐색 기회를 제공함으로써 혁신을 지원할 수 있다. 또한, 앤시스 심AI는 코딩 경험이나 딥러닝에 대한 전문적인 지식이 없어도 누구나 쉽게 활용할 수 있도록 설계됐다. 사용자가 기하학적 매개변수(geometric parameters)에 의존해 설계를 설명해야 했던 기존 방식과 달리, 앤시스 심AI는 설계의 형상 자체를 입력하는 방식을 차용했다. 따라서 기존 학습 데이터 간 형상의 구조가 일관되지 않더라도 광범위한 설계 탐색을 용이케 한다.     고도의 연산능력을 요하는 프로젝트의 경우, 앤시스 심AI는 모든 설계 단계에서 모델 성능 예측 속도를 10~100배 향상시킬 수 있으며, 사용자는 기존에 생성된 앤시스 시뮬레이션 데이터 또는 비 앤시스 시뮬레이션 데이터 모두를 활용해 AI를 학습시킬 수 있다. 모든 학습 및 예측 데이터는 클라우드 인프라에 호스팅되어 안전하게 보호된다. 앤시스의 셰인 엠스윌러(Shane Emswiler) 제품 총괄 수석 부사장은 “산업 분야를 막론한 여러 앤시스의 고객은 설계 프로세스 개선을 위해 생성형 AI를 필요로 하는 경향이 강해지고 있다. 클라우드 네이티브 솔루션에 대한 수요 증가는 사일로화된(siloed) 워크플로에서 시뮬레이션에 대한 보다 개방적이고 협업적인 접근 방식으로의 전환을 상징적으로 드러내는 것이라도 볼 수 있다”면서, “앤시스 심AI는 다른 앤시스의 시뮬레이션 솔루션과 함께 기업이 시간과 비용 절감이라는 이점을 바탕으로 포괄적인 엔드 투 엔드 프로세스를 개발하고, 나아가 혁신을 실현할 수 있도록 지원할 것”이라고 말했다. 한편, 앤시스 AI+(Ansys AI+), 앤시스GPT(AnsysGPT)를 포함한 추가적인 AI 지원 제품은 올 1분기 내에 출시될 예정이다.
작성일 : 2024-01-16
[무료다운로드] 생성형 AI 코딩으로 프로그램 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크    이번 호에서는 트랜스포머(transformer) 기반 생성형 AI 모델로 다국어 번역기, 문장 분류, 이미지 설명 텍스트 생성 프로그램의 개발 방법을 간략히 살펴본다. 트랜스포머는 텍스트, 이미지 등 데이터를 숫자로 표현한 토큰으로 인코딩한 후, 목표 라벨 데이터 결과와 차이가 적은 방향으로 가중치인 어텐션(attension) 벡터를 갱신하여 학습 모델을 만드는 기술이다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   트랜스포머는 현재 문장 성격 및 특징 분류, 다국어 번역, 비전 이미지 설명 및 생성, 음성인식, Voice to Text, 음악 작곡, 글 분류, 글 자동 요약 등 다양한 영역에서 사용된다. 이번 호에서는 관련 기능을 트랜스포머로 간단히 구현해 본다.    그림 1. 트랜스포머 개념 및 아키텍처   트랜스포머의 이론적 개념 등은 다음의 링크를 참고한다. 머신러닝 딥러닝 신경망 개념, 종류 및 개발 : https://daddynkidsmakers.blogspot.com/2017/02/blog-post_24.html 어텐션 기반 트랜스포머 딥러닝 모델 이해, 활용 사례 및 파이토치(Pytorch)를 통한 간단한 사용방법 소개 : https://daddynkidsmakers.blogspot.com/2021/10/blog-post.html 간단한 트랜스포머 동작 원리와 파이토치 기반 비전 트랜스포머 ViT 소개 : https://daddynkidsmakers.blogspot.com/2023/02/pytorch-vit.html 오디오, 영상, 텍스트, 센서, 3D깊이맵 멀티모달 딥러닝 모델 페이스북 이미지바인드(imagebind) 설치 및 사용기 : https://daddynkidsmakers.blogspot.com/2023/05/imagebind.html   개발 준비 파이썬(Python), 쿠다(CUDA) 등이 설치되어 있다는 가정 하에, 다음 명령어를 이용해 관련 패키지를 설치한다. pip install transfomers sentencepiece   간단한 텍스트 생성형 AI 개발 다음과 같이 트랜스포머 모델에서 사전학습된 distilgpt2를 사용해 간단한 텍스트 생성형 AI 코드를 개발해 본다. from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained("distilgpt2") model = AutoModelWithLMHead.from_pretrained("distilgpt2") input_ids = tokenizer.encode("I like gpt because it's", return_tensors='pt') greedy_output = model.generate(input_ids, max_length=12) print(tokenizer.decode(greedy_output[0], skip_special_tokens=True)) 실행 결과 <그림 2>와 같이 ‘I like gpt because it's’ 이후 문장을 자연스럽게 생성한다.   그림 2   텍스트의 빈칸 단어 예측 다음은 MLM(Mask Language Model) 방식으로 학습된 모델을 이용해, [MASK] 토큰으로 정의된 단어를 문장 맥락을 고려해 예측하는 코드이다.  from transformers import pipeline unmasker = pipeline('fill-mask', model='albert-base-v2') unmasker("mlm and nsp is the [MASK] task of bert.") 결과는 <그림 3>과 같다. 빈칸의 단어가 잘 예측된 것을 확인할 수 있다.   그림 3   이미지 설명 텍스트 생성 이제 주어진 이미지를 설명하는 텍스트를 생성해 본다. 목표는 입력 이미지에 대해 두 마리의 고양이가 누워있음을 표현하는 텍스트를 얻는 것이다.   그림 4     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-01-04